自动驾驶车辆中的环境感知通常严重依赖于深度神经网络(DNN),这些神经网络受到域的转移,导致DNN部署期间的性能大大降低。通常,通过无监督的域适应(UDA)方法解决了此问题,同时在源和目标域数据集上训练了训练,甚至仅以离线方式对目标数据进行训练。在这项工作中,我们进一步将无源的UDA方法扩展到了连续的,因此可以在单一图像的基础上进行语义细分。因此,我们的方法仅需要供应商(在源域中训练)和电流(未标记的目标域)相机图像的预训练模型。我们的方法持续batchNorm适应(CBNA)使用目标域图像以无监督的方式修改了批准层中的源域统计信息,从而在推理过程中可以提高稳定的性能。因此,与现有作品相反,我们的方法可以应用于在部署期间不断地以单位图像改进DNN,而无需访问源数据,而无需算法延迟,并且几乎没有计算开销。我们在各种源/目标域设置中显示了我们方法在语义分割中的一致有效性。代码可在https://github.com/ifnspaml/cbna上找到。
translated by 谷歌翻译
Reduced order modeling methods are often used as a mean to reduce simulation costs in industrial applications. Despite their computational advantages, reduced order models (ROMs) often fail to accurately reproduce complex dynamics encountered in real life applications. To address this challenge, we leverage NeuralODEs to propose a novel ROM correction approach based on a time-continuous memory formulation. Finally, experimental results show that our proposed method provides a high level of accuracy while retaining the low computational costs inherent to reduced models.
translated by 谷歌翻译
我们研究深度学习在张量分解中的隐式正则作用。虽然通过线性和某些类型的非线性神经网络中的深矩阵和“浅”张量分解中的隐式正则化促进了低级溶液,但我们表明,其在深张量因子中的作用随着深张量因子的影响,随着深度张因子的影响,随着多种形式的增长,随着其深度的增长而增长。网络。这为观察到的实验行为提供了非常忠实的描述。使用数值实验,我们证明了这种隐式正则化在得出更准确估计和更好收敛属性方面的好处。
translated by 谷歌翻译
本文提出了一种新颖的域翻译方法。利用生成模型和动态系统之间建立的相似之处,我们提出了对循环构造的重新制定。通过将模型嵌入哈密顿结构,我们获得了一个连续,表现力且最重要的是域翻译的可逆生成模型。
translated by 谷歌翻译
在隐私机器学习中,很常见的是,学识渊博的模型的所有者没有对数据的任何物理访问。取而代之的是,仅授予对模型所有者的安全远程访问,而没有任何能够从数据湖检索数据的能力。但是,模型所有者可能希望从远程存储库定期导出受过训练的模型,并且出现问题是否可能导致数据泄漏。在本文中,我们介绍了神经网络导出期间数据窃取攻击的概念。它包括隐藏出口网络中的一些信息,该信息允许最初存储在该数据湖中的图像数据湖之外的重建。更确切地说,我们表明可以训练可以执行有损耗的图像压缩的网络,同时解决一些实用程序任务,例如图像分割。然后,通过将压缩解码器网络与一些图像代码一起导出,从而导致数据湖外的图像重建。我们探讨了此类攻击对CT和MR图像数据库的可行性,这表明可以获得目标数据集的感知有意义的重建,并且可以随时使用被盗数据集来解决广泛的任务。全面的实验和分析表明,数据窃取攻击应被视为敏感成像数据源的威胁。
translated by 谷歌翻译